Световни новини без цензура!
„Липса на доверие“: Как deepfakes и AI могат да разтърсят изборите в САЩ
Снимка: aljazeera.com
Aljazeera News | 2024-06-29 | 23:21:55

„Липса на доверие“: Как deepfakes и AI могат да разтърсят изборите в САЩ

На 21 януари Патриша Гингрич се канеше да седне за вечеря, когато стационарният й телефон иззвъня. Гласоподавателката от Ню Хемпшир подвигна и чу глас, който й споделяше да не гласоподава на идните първоначални президентски избори.

„ Докато го слушах, си помислих, боже, това звучи като Джо Байдън “, сподели Гингрич пред Ал Джазира. „ Но фактът, че той сподели, с цел да резервира гласа ви, не го използвайте на идващите избори – знаех, че Джо Байдън в никакъв случай няма да каже това. “

Гласът може да е звучал като президента на Съединените щати, само че не беше той: беше бездънен фалшив, генериран от изкуствен интелект (AI).

Експертите предизвестяват, че дълбоките имитации — аудио, видео или изображения, основани благодарение на AI принадлежности, с желание да подвеждат — съставляват висок риск за гласоподавателите в Съединени американски щати преди общите избори през ноември освен посредством вкарване на погрешно наличие в конкуренцията, само че и посредством подкопаване публично доверие.

Гингрич сподели, че не е паднала по дълбокия фалшив на Байдън, само че се притеснява, че това може да е потиснало изборната интензивност. Съобщението доближи до близо 5000 гласоподаватели в Ню Хемпшир единствено дни преди първичните избори в щата.

„ Това може да е неприятно за хората, които не са толкоз осведомени какво се случва с демократите “, сподели Гингрич, който е ръководител на Демократическата комисия на Барингтън в Бърлингтън, Ню Хемпшир.

„ Ако в действителност смятаха, че не би трябвало да гласоподават за нещо и Джо Байдън им споделяше да не го вършат, тогава може би нямаше да участват на това гласоподаване. “

Уязвими онлайн групи

Призивът на Байдън не беше единственият бездънен фалшив до момента през този избирателен цикъл. Преди да отдръпна кандидатурата си за президент, акцията на губернатора на Флорида Рон ДеСантис показа видео, което съдържа генерирани от AI изображения на Доналд Тръмп, който прегръща имунолог Антъни Фочи – две фигури, които се сблъскаха обществено по време на пандемията COVID-19.

А през септември беше извършено друго автоматизирано позвъняване до 300 гласоподаватели, които се чака да вземат участие в първичните избори на Републиканската партия в Южна Каролина. Този път получателите чуха глас, генериран от AI, който имитираше сенатор Линдзи Греъм, питайки за кого гласоподават.

Практиката за смяна или подправяне на наличие – изключително за политическа полза – съществува от зората на американската политика. Дори първият президент на страната, Джордж Вашингтон, трябваше да се бори с поредност от „ подправени писма “, които наподобява демонстрират, че той слага под въпрос идеята за самостоятелност на Съединени американски щати.

Но инструментите за изкуствен интелект към този момент са задоволително напреднали, с цел да имитират безапелационно хората бързо и на ниска цена, повишавайки риска от дезинформация.

Проучване, оповестено по-рано тази година от откриватели от университета " Джордж Вашингтон ", предвижда, че доникъде на 2024 година ежедневните „ AI офанзиви “ ще ескалират, което ще съставлява опасност за общите избори през ноември.

Водещият създател на проучването Нийл Джонсън сподели пред Al Jazeera, че най-големият риск не идва от скорошните, явно подправени автоматизирани позвънявания – които съдържат повдигащи вежди известия – а по-скоро от по-убедителни дълбоки фалшификации.

„ Това ще бъдат нюансирани изображения, изменени изображения, а не напълно подправена информация, тъй като подправената информация притегля вниманието на проверяващите дезинформация “, сподели Джонсън.

Проучването откри, че онлайн общностите са свързани по метод, който разрешава на неприятните артисти да изпращат огромни количества манипулирани медии непосредствено в главния поток.

Общностите в суинг щатите могат да бъдат изключително уязвими, както и групите за родители в платформи като Фейсбук.

„ Ролята на родителските общности ще бъде огромна “, сподели Джонсън, акцентирайки като образец бързото разпространяване на дезинформацията за имунизациите по време на пандемията.

„ Наистина мисля, че ненадейно ще се сблъскаме с вълна от [дезинформация] – доста неща, които не са подправени, не са погрешни, само че разтягат истината. “

Нарушаване на публичното доверие

Самите гласоподаватели обаче не са единствените цели на дълбоки имитации. Лари Норден, старши шеф на Програмата за избори и държавно управление в Brennan Center for Justice, работи с чиновници на изборите, с цел да им помогне да открият подправено наличие.

Например Норден сподели, че неприятните артисти могат да употребяват принадлежности с изкуствен интелект, с цел да инструктират изборните служащи да затворят изборно място прибързано, като манипулират звука на гласа на шефа си или като изпратят известие, видимо през акаунта на супервайзър.

Той учи анкетьорите да се пазят, като ревизират известията, които получават.

Нордън акцентира, че неприятните артисти могат да основават подвеждащо наличие без AI. „ Нещото при AI е, че той просто улеснява работата в мащаб “, сподели той.

Само предходната година Норден илюстрира опциите на AI, като сътвори надълбоко подправено видео на себе си за презентация по отношение на рисковете, които технологията крие.

„ Изобщо не лиши доста време “, сподели Норден, обяснявайки, че всичко, което трябваше да направи, беше да вкара предходните си телевизионни изявленията в приложение.

Аватарът му не беше съвършен — лицето му беше малко замъглено, гласът му малко насечен — само че Норден означи, че инструментите за изкуствен интелект бързо се усъвършенстват. „ Откакто записахме това, технологията стана по-сложна и мисля, че е все по-трудно да се каже. “

Проблемът не е единствено в технологията. Тъй като дълбоките фалшификации стават все по-често срещани, обществеността ще стане по-наясно с тях и ще бъде по-скептична към наличието, което употребяват.

Това може да подкопае публичното доверие, като е по-вероятно гласоподавателите да отхвърлят същинската информация. Политически фигури също могат да злоупотребяват с този песимизъм за личните си цели.

Правните учени нарекоха това събитие „ дял на лъжеца “: безпокойството по отношение на дълбоките подправени записи може да улесни субектите на законни аудио или видеозаписи да настояват, че записите са подправени.

Нордън уточни като образец аудиото на Access Hollywood, което се появи преди изборите през 2016 година В клипа тогавашният претендент Тръмп се чува да приказва за взаимоотношението си с дамите: „ Можеш да направиш всичко. Хванете ги за котката. “

Лентата - която беше доста същинска - се смяташе за нездравословна за вероятностите на Тръмп измежду дамите гласоподаватели. Но в случай че сходно аудио изтече през днешния ден, Норден сподели, че претендент може елементарно да го назова подправен. „ Би било по-лесно за обществеността да отхвърли сходни неща, в сравнение с би било преди няколко години. “

Нордън добави: „ Един от проблемите, които имаме сега в Съединени американски щати, е, че има липса на доверие и това може единствено да утежни нещата. “

Какво може да се направи с deepfakes?

Въпреки че дълбоките имитации провокират възходящо безпокойствие в изборите в Съединени американски щати, релативно малко федерални закони лимитират потреблението им. Федералната изборна комисия (FEC) към момента не е лимитирала дълбоките фалшификации в изборите, а законопроектите в Конгреса остават в застой.

Отделните щати се борят да запълнят празнотата. Според инструмент за следене на законодателството, оповестен от организацията за отбрана на потребителите Public Citizen, до момента са признати 20 щатски закона за контролиране на дълбоките фалшификации в изборите.

Още няколко законопроекта — в Хавай, Луизиана и Ню Хемпшир — бяха признати и чакат подписа на губернатора.

Нордън сподели, че не е сюрпризиран да види обособени страни да работят пред Конгреса. „ Предполага се, че страните са лабораториите на демокрацията, тъй че още веднъж се оказва правилно: страните работят първи. Всички знаем, че е в действителност мъчно нещо да бъде признато в Конгреса “, сподели той.

Избирателите и политическите организации също подхващат дейности. След като Гингрич получи подправеното позвъняване на Байдън в Ню Хемпшир, тя се причисли към правосъдно дело, водено от Лигата на дамите гласоподаватели, търсещо отговорност за хипотетичната машинация.

Източникът на позвъняването се оказа Стив Крамър, политически съветник, който твърди, че желанието му е да притегли вниманието към нуждата от контролиране на ИИ в политиката. Крамър също призна, че стои зад автоматизираното позвъняване в Южна Каролина, имитирайки сенатор Греъм.

Крамър излезе, откакто NBC News разкри, че е поръчал на вълшебник да употребява обществено наличен програмен продукт, с цел да генерира бездънен подправен глас на Байдън.

Според делото основаването на deepfake лишава по-малко от 20 минути и коства единствено $1.

Крамър обаче сподели пред CBS News, че е получил „ излагане на стойност 5 милиона $ “ за напъните си, което се надяваше да разреши на регулациите за ИИ „ да се разиграят или най-малко да стартират да се изплащат “.

„ Намерението ми беше да направя разлика “, сподели той.

Възможност за използване на съществуващи закони

Но казусът на Крамер демонстрира, че съществуващите закони могат да се употребяват за ограничение на дълбоките имитации.

Федералната комисия по връзките (FCC) да вземем за пример постанови (PDF) по-рано тази година, че софтуерът за подражаване на глас попада в обсега на Закона за отбрана на потребителите на телефони от 1991 година и затова е противозаконен в множеството случаи.

Комисията в последна сметка предложи наказване от 6 милиона $ против Крамер за противозаконното автоматизирано позвъняване.

Министерството на правораздаването на Ню Хемпшир също упрекна Крамър в закононарушение угнетяване на гласоподаватели и показване на претендент, което може да докара до седем години затвор. Крамър не се призна за отговорен. Той не отговори на молба за коментар от Ал Джазира.

Нордън сподели, че е значимо, че нито един от законите, в нарушаване на които Крамър е упрекнат, не е особено приспособен за deepfakes. „ Наказателните обвинявания против него нямат нищо общо с ИИ “, сподели той. „ Тези закони съществуват без значение от технологията, която се употребява. “

Въпреки това, тези закони не са толкоз лесни за използване към неприятни артисти, които не могат да бъдат разпознати или които се намират отвън Съединени американски щати.

„ Знаем от разследващите организации, че те към този момент виждат Китай и Русия да опитват с тези принадлежности. И чакат те да бъдат употребявани “, сподели Норден. „ В този смисъл няма да вършиме закони за излизане от този проблем. “

Както Норден, по този начин и Джонсън имат вяра, че неналичието на регулация прави по-важно гласоподавателите да се осведомят за дълбоките имитации – и да се научат по какъв начин да намират точна информация.

Що се отнася до Гингрич, тя сподели, че знае, че манипулативните дълбоки имитации ще станат все по-разпространени. Тя също счита, че гласоподавателите би трябвало да се осведомят за риска.

Нейното обръщение към гласоподавателите? „ Бих споделил на хората да се уверят, че знаят, че могат да гласоподават. “

Източник: aljazeera.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!